MALEN RUIZ DE ELVIRA
, Sevilla
|
Tanto la UE como el G7 se plantean establecer, y deprisa, estándares y bancos de pruebas que permitan la interconexión de las redes y tengan dimensión internacional, un proceso que ya está en marcha por otra parte a través de consorcios industriales y organizaciones de expertos. Un proceso no fácil, porque el marco actual de la red es caótico, según reconocieron en Sevilla los técnicos -en su mayor parte procedentes de Europa y de Estados Unidos- convocados por el Consorcio de las tres W y la empresa Sadiel. Aunque se ha avanzado mucho todavía se trata de proyectos de estándar, más que estándares de verdad. Pero además los que tienen los instrumentos para mundializar la red no tienen la cultura necesaria. Uno de los aspectos más curiosos de los que surgieron en Sevilla fue la necesidad de educar culturalmente a los programadores de las multinacionales y de los operadores de telecomunicación en los aspectos culturales de los mercados a los que pretenden acceder.
Servidores multilingües
La palabra de moda entre este selecto grupo de técnicos es multilingüe. Se trata de habilitar los servidores actuales de la red para poder hacer traducción automática o semiautomática, presentar páginas amarillas de ámbito internacional, aprender idiomas, distribuir artículos de prensa en varios idiomas y disponer de bancos de datos mundiales.
Todo esto no interesa sólo a las empresas privadas sino también a los Gobiernos, que pueden cubrir sus necesidades reduciendo gastos, explicó Yvan Lauzon, que trabaja en proyectos bilingües en Canadá. Fátima Fekin-Ahmed, de Túnez, fue más allá, al señalar que la no internacionalización de la red significa que grandes partes del mundo no puedan cubrir sus necesidades de información: «Ninguna región del mundo quiere quedarse fuera de la explosión Internet».
Y son técnicos nacidos en California o en Holanda los que están intentando solventar los problemas que plantea, por ejemplo, el árabe para que pueda incorporarse a la red y coexistir con las lenguas europeas, que se escriben con vocales, de izquierda a derecha y con los números en el mismo sentido que las letras, al revés que el árabe.
Y algunos caracteres chinos se escriben de forma ligeramente distinta en China y en Japón, lo que está planteando ciertos engorrosos problemas al estándar universalmente elegido -el Unicode, que permite la codificación de todos los caracteres conocidos- y retrasando su implantación en el Extremo Oriente. Y eso sin hablar de la partición de palabras en las distintas lenguas, un tema sin solucionar, o de las cursivas y las comillas.
Pero los técnicos intentan solventar también los problemas políticos. En Arabia Saudí, por ejemplo, al proveedor de Internet se le hace responsable de la censura de los contenidos (como que no se pueda acceder a las páginas de Playboy). Como señalaron algunos de los participantes en Sevilla, su tarea es proporcionar soluciones, por lo que desarrollar herramientas de filtro de contenidos en servicios multilingües es parte de ella. Otro aspecto es la posibilidad que debe tener el que obtiene una película de acceder a una calificación moral de ésta por parte del organismo que le merezca más confianza, probablemente mediante una suscripción aparte. Cuando una película se va a distribuir en 10 idiomas y 40 países no vale que el productor le incluya una calificación universal.
Todas estas posibilidades se traducen en ceros y unos, en etiquetas electrónicas que indiquen en qué lengua está cada documento, en protocolos de comunicaciones, en enlaces de hipertexto y todo ello bajo el paraguas de unos estándares para que todo el mundo se ponga de acuerdo en qué significan esos ceros y unos.
Cuando los diversos niveles de la red -la carretera y los vehículos, como los define el presidente del simposio, Manuel Tomás Carrasco-, se confunden en cuanto a tratamiento electrónico, el resultado es lo que pasa actualmente con muchos documentos de Internet, que no se pueden tratar como textos ni hacer búsquedas.
Otro problema más filosófico que se plantea es el de la volatilidad de la red: los contenidos desaparecen, nadie puede garantizar que estén ahí al día siguiente, pero, como se preguntaba un técnico «¿Tiene sentido hacer permanentes las cosas en Internet?» Y es que la Web, señaló, es un universo nuevo, a medio camino entre la conversación y la publicación.
En cuanto a la traducción automática a través de la red, que podría considerarse a la vuelta de la esquina, los expertos son escépticos en su mayoría, aunque aceptan las herramientas para traducción semiautomática, especialmente en textos técnicos y administrativos. Marc Levillon, de la Comisión Europea, que está haciendo experimentos en traducciones simultáneas, señala que las máquinas reconocen errores sintácticos en los textos pero no las ambigüedades. Cuando el texto traducido a máquina pasa a un corrector humano, la tendencia es a aceptarlo tal cual «porque el ser humano es perezoso por naturaleza», afirmó Levillon y las consecuencias pueden ser peligrosas para el usuario no experto.
© Copyright DIARIO EL PAIS, S.A. - Miguel Yuste 40, 28037 Madrid
digital@elpais.es |
publicidad@elpais.es